1. 迁移学习(Transfer Learning)的方法: 考虑到不同语种间的翻译任务存在一定相关性,通过迁移学习可以将已经学到的知识分享给新模型从而加快模型训练,避免模型训练从零开始。以A和C的翻译任务为例,首先训练A和B之间的NMT模型,之后在训练A和C的翻译模型时,使用A与B的NMT模型参数作为初始值,使用少量A与C的标注平行语料数据进行模型参数的重新训练,得到最终的NMT模型。□B. Zoph , D. Yuret, J. May, and K. Knight,Transfer Learning for Low-Resource Neural Machine Translation , EMNLP 2016.